Text copied to clipboard!
Naslov
Text copied to clipboard!Inženir za velike podatke
Opis
Text copied to clipboard!
Iščemo izkušenega in motiviranega Inženirja za velike podatke, ki se bo pridružil naši ekipi za podatkovno inženirstvo. Vaša glavna naloga bo oblikovanje, razvoj in vzdrževanje robustnih podatkovnih rešitev, ki omogočajo učinkovito zbiranje, shranjevanje, obdelavo in analizo velikih količin podatkov. Kot ključni član ekipe boste sodelovali z analitiki, razvijalci programske opreme in poslovnimi enotami za zagotavljanje podatkovnih rešitev, ki podpirajo strateške cilje podjetja.
Vaše delo bo vključevalo delo z različnimi tehnologijami za velike podatke, kot so Hadoop, Spark, Kafka, Hive, ter uporabo programskih jezikov, kot so Python, Scala ali Java. Prav tako boste odgovorni za vzpostavitev podatkovnih tokov (data pipelines), optimizacijo zmogljivosti in zagotavljanje kakovosti podatkov. Pomembno je, da imate dobro razumevanje podatkovnih baz, podatkovnih skladišč in arhitektur podatkovnih sistemov.
Od kandidata pričakujemo sposobnost samostojnega dela, reševanja kompleksnih problemov in učinkovitega komuniciranja z različnimi deležniki. Prav tako je zaželeno, da imate izkušnje z oblačnimi platformami, kot so AWS, Azure ali Google Cloud Platform, ter poznavanje orodij za orkestracijo podatkovnih tokov, kot je Apache Airflow.
Če vas veseli delo z velikimi podatki, vas zanima razvoj inovativnih rešitev in želite delati v dinamičnem okolju, kjer boste imeli priložnost vplivati na podatkovno strategijo podjetja, vas vabimo, da se prijavite.
Odgovornosti
Text copied to clipboard!- Načrtovanje in razvoj podatkovnih tokov za obdelavo velikih količin podatkov
- Vzdrževanje in optimizacija obstoječih podatkovnih rešitev
- Sodelovanje z analitiki in razvijalci pri razumevanju podatkovnih potreb
- Implementacija rešitev za shranjevanje in dostop do podatkov
- Zagotavljanje kakovosti, varnosti in skladnosti podatkov
- Uporaba orodij za obdelavo podatkov, kot so Hadoop, Spark, Kafka
- Razvoj skript in programov v Pythonu, Scali ali Javi
- Integracija podatkov iz različnih virov in sistemov
- Spremljanje učinkovitosti podatkovnih rešitev in odpravljanje napak
- Dokumentiranje arhitekture in postopkov obdelave podatkov
Zahteve
Text copied to clipboard!- Diploma iz računalništva, informatike ali sorodnega področja
- Vsaj 2 leti izkušenj z delom na področju velikih podatkov
- Dobro poznavanje Hadoop, Spark, Kafka ali podobnih tehnologij
- Izkušnje s programiranjem v Pythonu, Scali ali Javi
- Poznavanje podatkovnih baz in podatkovnih skladišč
- Izkušnje z oblačnimi platformami (AWS, Azure, GCP) so prednost
- Sposobnost analitičnega razmišljanja in reševanja problemov
- Dobro znanje angleškega jezika
- Sposobnost timskega dela in komunikacije z različnimi deležniki
- Poznavanje orodij za orkestracijo podatkovnih tokov (npr. Airflow)
Možna vprašanja na razgovoru
Text copied to clipboard!- Kakšne izkušnje imate z obdelavo velikih količin podatkov?
- Katere tehnologije za velike podatke najbolje obvladate?
- Ali imate izkušnje z oblačnimi platformami? Katere ste uporabljali?
- Kako pristopate k optimizaciji podatkovnih tokov?
- Ali ste že delali z orodji, kot so Apache Spark ali Kafka?
- Kako zagotavljate kakovost in varnost podatkov?
- Ali imate izkušnje z integracijo podatkov iz različnih virov?
- Kako dokumentirate svoje podatkovne rešitve?
- Kako sodelujete z drugimi ekipami pri razvoju podatkovnih rešitev?
- Katere projekte na področju velikih podatkov ste že izvedli?